unit of information
確率変数のエントロピーの単位
つまり情報の単位
#情報量
代表的なのは Sh (shannon)
eponym: Shannon
普通に bit とも言うらしい。
種別
自己情報量の単位
平均情報量の単位
↑ どちらにも共通している。
log の底ごとに単位が違う。
例
bit
$ I(E) [\text{bit}] = -\log_2(p(E)) [\text{bit}]
table:units
base name
2 shannon
2 bit
3 trit
10 hartley
10 ban
10 dit
e nat
備考
2の場合の別名は桁名と同じ bit
3の場合は 3進法の桁名と同じ trit
ref. Ternary numeral system - Wikipedia
10 は同じくエポニム
#Hartley
計算式
単位の変換
log の底を変換する
$ I_y(e) = -\log_y(x^{-I_x(e)}) = \frac{\log(x)}{\log(y)}I_x(e)
つまり x→y なら log(x)/log(y) を かける。
ref.
Units of information - Wikipedia
Entropy (information theory) - Wikipedia
Information content - Wikipedia
Nat -- from Wolfram MathWorld
#unit #単位系 #情報理論